Большая языковая модель может генерировать язык бегло, но безукоризненная плавность не означает фактическую надежность. Основное ограничение модели большого языкового модели (LLM) — это её зависимость от параметрической памяти—знания, замороженные во времени на момент окончания обучения, известные как дата прекращения обучения.
Почему большие языковые модели (LLM) терпят неудачу в изоляции
RAG существует потому что многие практические вопросы зависят от информации, которая является конфиденциальной, актуальной, версионированной, специализированной для определённой области, или поддающейся аудиту. Без внешней информации модель страдает от:
- Ограничение по времени: Неспособность знать события, произошедшие после обучения.
- Ограничение доступа: Отсутствие доступа к «тёмным данным» (частным документам корпораций).
- Ограничение возможности отслеживания: Отсутствие аудируемого следа для профессиональной ответственности.
Парадигма открытой книги
Вместо того чтобы заставлять модель «запоминать» всё через дорогостоящее переобучение, мы переключаем архитектуру на извлечение конкретных доказательств из внешнего корпуса, прежде всего, позволяя модели большого языкового модели (LLM) отвечать с этими данными на виду. Это обеспечивает уверенность с доказательствами вместо уверенности без них.